8 - Mathematische Grundlagen zu Künstliche Intelligenz, Neuronale Netze und Data Analytics I [ID:22024]
50 von 363 angezeigt

Also wir haben uns jetzt vor der Pause das Okhamische Denken angeguckt.

Und das bestand eben darin, dass die wahre Lösung durch eine, dass das wahre Modell durch ein

Most-Posimonious-Modell ersetzt wird, was hoffentlich auch gut ist. Und die Alternative zu

diesem Gedankengang stammt wieder von einem englischen Mönch, nämlich von Thomas Bays.

Und dieses bissianische Denken, das kann man ganz gut erstmal zusammenfassen in einer Darstellung

über bissianisches Modeling und bissianisches Forecasting. Also das ist erstmal, obwohl da

formal hingeschrieben ist ein abstrakter Gedankengang. Also wenn wir die Joint-Distribution

zwischen Modellen und Daten anschauen, dann kann man das in zwei Richtungen ausdehnen. Man kann sagen,

die Joint Probability hier, die Joint Probability zwischen Modellen und Daten kann ich einmal

schreiben als die bedingte Wahrscheinlichkeit zwischen Daten und Modellen, multipliziert mit der Wahrscheinlichkeit

vom Modell und umgekehrt die Probabilitie vom Modell, gegeben die Daten, mal der Probabilitie von den

Daten. Also das ist einfach Joint Probability ersetzt durch bedingte Wahrscheinlichkeit. Und das kann ich

in zwei Richtungen machen. Da kommt halt diese Gleichungskette raus. Dann nehme ich das linke und

das rechte und schreibe das so rum hin. Und das beschreibt das Denken von bissianischen Modeling.

Das sagt nämlich, die Wahrscheinlichkeit, dass ein Modell richtig ist, gegeben Daten, ist gleich,

die Wahrscheinlichkeit oder so ich sollte die Wörter verwenden, die hier oben drüber stehen, also die

posterior Verteilung für die Menge aller sinnvollen Modelle gegeben, die Daten, ist gleich die

Wahrscheinlichkeit für die Daten, dass diese Daten von dem Modell erzeugt worden sind, mal der a priori

Wahrscheinlichkeit von den Modellen, geteilt durch die Wahrscheinlichkeit, dass die Daten das Problem

richtig beschreiben. Und diese Formel hier nämlich zu sagen, aha, es gibt irgendwie eine

Wahrscheinlichkeit für den Modelltyp vorher, bevor ich die Daten gesehen habe und es gibt eine

Wahrscheinlichkeit für die Modelle, nachdem ich die Daten gesehen habe und die Provinzialitätskonstante,

oder was heißt Konstante, der Provinzialitätsfaktor hier, ist eben, wie gut die Modelle die gemessenen

Daten erklären können. Und wenn ich das als bissianischen Modellbau sehe, dann würde

bissianisches Forecasting so gehen. Und der entscheidende Punkt kommt unten, also ganz egal,

ob man die Gedanken ginge zwischendurch jetzt im Detail verfolgt. Bissianisches Forecasting sagt,

abroximiere das wahre Modell bei einem Modell, was dadurch gewichtet ist von allen möglichen

Modellen. Also machen wir mal die Prognoseaufgabe. Prognoseaufgabe heißt, ich will die Daten der

Zukunft vorhersagen, wir geben die Daten der Vergangenheit. Und wenn ich das wahre Modell

kennen würde, dann könnte ich die Daten der Zukunft berechnen gegeben, dass ich das wahre Modell kenne.

Also das hier ist eine rein theoretische Annahme. Ich kenne das wahre Modell aber nicht. Stattdessen

nehme ich also jetzt halt irgendwelche Modelle, die die Daten der Vergangenheit kennen, benutze

diese Modelle, um die Zukunft, um die Zukunft vorherzusagen und mache das über die Menge aller

möglichen Modelle. Also wenn es viele Modelle gibt, die mit den Daten der Vergangenheit kompatibel

sind, dann muss ich halt für jedes dieser Modelle dann ausrechnen, was die in Zukunft vorher sagen

würden. Und das nehme ich dann hier als Gewichtungsfaktor für die verschiedenen

möglichen Vorhersagen für die Zukunft. Das ist also so eine Art gewichtete Szenarioanalyse,

wenn Sie wollen. Sie machen hier viele mögliche Vorhersagen für die Zukunft und die Gewichtung.

Ob das eine gute Idee ist, liegt daran, ob diese entsprechenden Modelle in der sich eine Vergangenheit

bewährt hätten. Darüber mache ich halt eine Mittelwertbildung. Ja gut, jetzt nehmen wir dann

das Model hier, Model gegeben Daten, also Model gegeben Daten hier. Das heißt, also diesen Teil

hier ersetze ich jetzt, diesen Relevanzparameter hier ersetze ich jetzt durch den bösianischen

Modellbau und dann kriegen Sie, dass das, also diese Verhältniskonstanten hier, die Wahrscheinlichkeit

für die Daten und die Wahrscheinlichkeit für die Modelle, die kommen da drum herum. Aber hier in

der Mitte haben Sie also jetzt wieder Wahrscheinlichkeit Future gegeben Modell und dann hier die Wahrscheinlichkeit,

die Daten der Vergangenheit sind aus dem Modell heraus erzeugbar und dann eben Wahrscheinlichkeit

dafür, dass das Modell Sinn macht. So, jetzt tun wir erstmal diese Konjunkt, diese einzelnen

Wahrscheinlichkeiten hier wegdiskutieren. Wir sagen nämlich, wir haben nur einen Datensatz,

also muss ich mich nicht darüber unterhalten, ob der geht oder nicht geht, weil es gibt nur einen.

Also haben wir hier schon mal eine 1 stehen. Und die Wahrscheinlichkeit, dass die verschiedenen

Zugänglich über

Offener Zugang

Dauer

00:47:05 Min

Aufnahmedatum

2020-10-27

Hochgeladen am

2020-10-27 17:37:10

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen